home *** CD-ROM | disk | FTP | other *** search
/ Network CD 2 / Network CD - Volume 2.iso / programs / internet / tcp / www / geturl-1.03.readme < prev    next >
Encoding:
Text File  |  1995-05-13  |  2.0 KB  |  46 lines

  1.     
  2. DESCRIPTION
  3.  
  4.     -- Script to download HTML systems across the network --
  5.  
  6.     GetURL.rexx is an ARexx script which will download World-Wide Web pages.
  7.     With a simple command line it will download a specific page, and with
  8.     more complex command lines it will be able to download specific sets of
  9.     documents.
  10.     
  11.     The intention was to create a tool that allowed local caching of important
  12.     web pages and a flexible way of specifying what pages are important. The
  13.     script has no GUI as of yet but may have at some stage in the future.
  14.     
  15.     If you have ever tried to download and save to disc a 200 page document
  16.     using Mosaic, then you know what this script is for. Mosaic will only
  17.     let you load a page, then load it to disc, then load another page etc.
  18.     This is a very frustrating process. GetURL automates this process and
  19.     will run in batch mode without user intervention.
  20.     
  21.     The major features of GetURL.rexx are as follows:
  22.     
  23.     * doesn't require AMosaic, so you can be browsing something else
  24.         with AMosaic whilst this is running
  25.         
  26.     * save pages to your hard disc so that they can be read offline and
  27.         you can also give them to friends on a floppy disc. Who knows, 
  28.         you may even be able to sell discs containing web pages :-)
  29.  
  30.     * flexible set of command line switches that allow you to restrict the 
  31.         type of pages that it downloads
  32.     
  33.     * ability to specify files for the lists of URLs that it keeps so
  34.         that any search for pages can be stopped and restarted at a later
  35.         date. i.e. you could run GetURL for 2 hours a day whilst you are
  36.         online and gradually download everything in the entire universe
  37.         and it won't repeat itself.
  38.         
  39.     * includes the ability to download itself when there are new versions.
  40.     
  41.     * will use a proxy if you have access to one, in order to both speed up
  42.         access to pages and also to reduce network load.
  43.         
  44.     * will download binary files (*.gif, *.lha) as easily as text and html
  45.         files.
  46.